从早期图像处理到现代计算成像,成功的模型和算法都依赖于自然信号的基本属性:对称性。在这里,对称是指信号集的不变性属性,例如翻译,旋转或缩放等转换。对称性也可以以模棱两可的形式纳入深度神经网络中,从而可以进行更多的数据效率学习。虽然近年来端到端的图像分类网络的设计方面取得了重要进展,但计算成像引入了对等效网络解决方案的独特挑战,因为我们通常只通过一些嘈杂的不良反向操作员观察图像,可能不是均等的。我们回顾了现象成像的新兴领域,并展示它如何提供改进的概括和新成像机会。在此过程中,我们展示了采集物理学与小组动作之间的相互作用,以及与迭代重建,盲目的压缩感应和自我监督学习之间的联系。
translated by 谷歌翻译
在许多现实世界中,只有不完整的测量数据可用于培训,这可能会带来学习重建功能的问题。实际上,通常不可能使用固定的不完整测量过程学习,因为测量运算符的无信息中没有信息。可以通过使用来自多个操作员的测量来克服此限制。尽管该想法已成功地应用于各种应用中,但仍缺乏对学习条件的精确表征。在本文中,我们通过提出必要和充分的条件来学习重建所需的基本信号模型,以指示不同测量运算符数量之间的相互作用,每个操作员的测量数量,模型的尺寸和尺寸之间的相互作用。信号。此外,我们提出了一个新颖且概念上简单的无监督学习损失,该损失仅需要访问不完整的测量数据,并在验证足够的条件时与受监督学习的表现达到相同的表现。我们通过一系列有关各种成像逆问题的实验,例如加速磁共振成像,压缩感测和图像介入,通过一系列实验来验证我们的理论界限,并证明了与以前的方法相比,提出的无监督损失的优势。
translated by 谷歌翻译
深网络提供从医学成像到计算摄影的多重成像逆问题的最先进的性能。但是,大多数现有网络都是用清洁信号训练,这些信号通常很难或无法获得。近来的成像(EI)是最近的自我监督的学习框架,其利用信号分布中存在的组不变性,以仅从部分测量数据中学习重建功能。虽然EI结果令人印象深刻,但其性能随着噪音的增加而劣化。在本文中,我们提出了一种强大的成像(REI)框架,其可以学习从嘈杂的部分测量单独学习图像。该方法采用Stein的无偏见风险估算器(肯定)获得完全无偏见的训练损失,这是对噪声强大的。我们表明REI导致线性和非线性逆问题导致相当大的性能收益,从而为具有深网络的稳健无监督成像铺平了道路。代码可在:https://github.com/edongdongchen/rei。
translated by 谷歌翻译
Explainable artificial intelligence is proposed to provide explanations for reasoning performed by an Artificial Intelligence. There is no consensus on how to evaluate the quality of these explanations, since even the definition of explanation itself is not clear in the literature. In particular, for the widely known Local Linear Explanations, there are qualitative proposals for the evaluation of explanations, although they suffer from theoretical inconsistencies. The case of image is even more problematic, where a visual explanation seems to explain a decision while detecting edges is what it really does. There are a large number of metrics in the literature specialized in quantitatively measuring different qualitative aspects so we should be able to develop metrics capable of measuring in a robust and correct way the desirable aspects of the explanations. In this paper, we propose a procedure called REVEL to evaluate different aspects concerning the quality of explanations with a theoretically coherent development. This procedure has several advances in the state of the art: it standardizes the concepts of explanation and develops a series of metrics not only to be able to compare between them but also to obtain absolute information regarding the explanation itself. The experiments have been carried out on image four datasets as benchmark where we show REVEL's descriptive and analytical power.
translated by 谷歌翻译
在使用描述逻辑本体论时,理解描述逻辑推理器得出的需要并不总是直接。到目前为止,标准的本体编辑器prot \'eg \'e提供了两种服务来帮助:(黑盒)owl 2 dl本科学的理由,以及(玻璃盒)对轻质猫头鹰的证明,后者在其中利用后者利用了。推理麋鹿的证明设施。由于理由通常不足以解释推论,因此仅几乎没有工具支持来解释更具表现力的DLS中的推论。在本文中,我们介绍了Evee-libs,这是一个用于计算DLS到炼金术的Java库和Evee-Protege,这是一个prot \'eg'eg'e插件的集合,用于在prot \'eg'eg'e中显示这些证明。我们还简要介绍了最新版本的evonne,这是一个更高级的独立应用程序,用于显示和与用evee-libs计算的证据进行交互。
translated by 谷歌翻译
卷积和复发性神经网络的结合是一个有希望的框架,它允许提取高质量时空特征以及其时间依赖性,这是时间序列预测问题(例如预测,分类或异常检测)的关键。在本文中,引入了TSFEDL库。它通过使用卷积和经常性的深神经网络来编译20种时间序列提取和预测的最先进方法,用于在多个数据挖掘任务中使用。该库是建立在AGPLV3许可下的一组TensorFlow+Keras和Pytorch模块上的。本提案中包含的架构的性能验证证实了此Python软件包的有用性。
translated by 谷歌翻译
深度学习在各种任务中都优于其他机器学习算法,因此,它被广泛使用。但是,像其他机器学习算法,深度学习和卷积神经网络(CNN)一样,当数据集呈现标签噪声时,表现较差。因此,重要的是开发算法来帮助训练深网及其对无噪声测试集的概括。在本文中,我们提出了针对称为Rafni的标签噪声的强大训练策略,可与任何CNN一起使用。该算法过滤器和重新标记培训实例基于训练过程中主干神经网络的预测及其概率。这样,该算法会自行提高CNN的概括能力。拉夫尼(Rafni)由三种机制组成:两种过滤实例的机制和一种重新标记实例的机制。另外,它不认为噪声速率是已知的,也不需要估计。我们使用多种尺寸和特征的不同数据集评估了算法。我们还使用CIFAR10和CIFAR100基准在不同类型和标签噪声的速率下使用CIFAR10和CIFAR100基准进行了比较,发现Rafni在大多数情况下都能取得更好的结果。
translated by 谷歌翻译